第一章:报告基础信息 报告标题:AI Agent安全实践指引 发布机构:腾讯云计算(北京)有限责任公司、中国信息通信研究院人工智能研究所 发布时间:未明确标注(注:引用数据时间范围为2026年2 月) 行业标签:技术服务,安全 产品标签:undefined#AI Agent安全中心undefined#AI Agent安全网关undefined#iOA(终端安全管理系统)undefined #威胁情报能力 第二章:报告背景和目标 随着AI Agent在企业规模化部署,其自主决策与工具调用能力挑战了传统安全体系,引发权限滥用、供应链风险等新型威胁。 本报告由工信部网络安全威胁和漏洞信息共享平台(NVDB)联合行业机构制定,提出“六要六不要”原则及三层防护体系,助力企业实现风险可控、行为可溯的AI Agent落地。 第六章:为什么选择腾讯云 腾讯云通过以下能力为AI Agent提供全生命周期防护: 开箱即用防护体系:整合AI Agent安全网关(输入过滤)、iOA终端沙箱(运行隔离)、威胁情报库(恶意组件识别)
为 AI / LLM / Agent 构建安全基础——打造可信、可控、可持续的智能生态体系一、引言:智能化浪潮下的“安全底线”2025 年,人工智能正进入自治与智能代理(Agentic AI)时代。 构建一个安全、可信的 AI / LLM / Agent 生态,已成为数字基础设施的重要命题。 关键技术:OAuth 2.1 / OpenID Connect + PKCE 实现安全授权。去中心化身份(DID)+ 可验证凭证(VC)实现 AI-Agent 的身份确权。 四、AI 安全落地实践:企业级防护体系案例 案例 1:金融机构 AI 运维系统安全化背景:AI 运维平台采用多个自主 Agent 自动执行巡检、补丁升级。 未来的 AI 系统必须做到:可控(Controllable):Agent 不得越权、自主失控可信(Trustworthy):模型可验证、可追溯、可解释可持续(Sustainable):安全体系能与业务共同演进只有在坚实的安全基础之上
一、产品定位与核心亮点 EdgeOne ClawScan是由腾讯朱雀实验室×腾讯云EdgeOne联合推出的AI Agent(文中称“小龙虾”)专用安全防护工具,聚焦AI Agent“高权限、可执行、插件生态丰富 二、产品应用场景 个人用户场景 使用AI Agent作为个人助手、知识问答、任务自动化工具时,面临Skill供应链污染、配置不当致公网暴露、权限滥用引发误操作等风险。 四、典型案例 客户名称:小龙虾(AI Agent示例) 背景:作为高权限、可执行、插件生态丰富的超级Agent,面临“输入→思考→执行”链路中权限(文件/账号/系统/网络)、技能(Skill执行路径)、 总结 EdgeOne ClawScan通过“一句话体检+四大扫描+双重守护”模式,结合EdgeOne网络层防护(WAF/Bot管理/DDoS/CC防护),为AI Agent构建从内到外的完整安全防护体系 立即体验可通过指定命令触发免费体检,或四步接入EdgeOne套餐(领免费版→域名接入→配置策略→升级可选),助力AI Agent安全服务业务。
研发机构:腾讯朱雀实验室 × 腾讯云EdgeOne 一、产品定位与核心亮点 技术定义:EdgeOne ClawScan是针对高权限、可执行AI Agent(如“小龙虾”)的自动化安全扫描工具,致力于解决 Agent执行链中“输入→思考→执行”环节的安全风险。 硬核指标 检测覆盖率:100%覆盖Agent核心风险三角(权限/技能/输入) 风险检测率:支持36%恶意Skill识别(引用来源:Snyk ToxicSkills研究报告) 3. 开源生态: A.I.G开源地址:https://github.com/Tencent/AI-Infra-Guard(Star > 3200) 技术背书: 腾讯朱雀实验室AI安全研究组 腾讯云EdgeOne安全产品团队
,自主AI Agent在企业中的应用扩大了网络风险,呼吁采取更严格的安全措施。 *攻击面扩大*:AI Agent的自主性创造了难以追踪的复杂攻击路径 *安全需求迫切*:传统安全措施难以应对Agent特有的风险 *协作风险*:多Agent交互可能导致意外行为和安全漏洞 企业需要重新评估其安全架构 ❤ Secure AI Agents at Runtime with Docker Docker推出AI Agent运行时安全解决方案 Docker发布了关于如何在运行时保护AI Agent的新方法, 解决了AI原生开发中的安全挑战。 AI Agent时嵌入运行时安全,为AI原生开发提供更可靠的安全保障。
一个普遍的误区是,认为工具越多Agent能力越强,但其实这会给Agent有限的上下文与决策系统带来巨大的认知负荷。 正确的思路是,少即是多。 这本质上,是将部分Agent的规划责任,前置到工具的设计当中,是一种责任转移的思路。 当工具库膨胀之后,命名混乱与功能重叠,会让Agent无所适从,通过命名空间来组织工具。 需要打磨工具的描述,因为这些描述是Agent理解工具的唯一信息来源。 工具描述,应将所有隐含的知识显性化、力求清晰、无歧义。 结构化命名,相当于为Agent提供了一张清晰的地图,帮助在正确的场景下,快速定位合适的工具。 同样,工具返回给Agent的内容质量,远比数量更重要。 因为Agent比人类更擅长理解的的内容,也是人类可读的、具有意义的文本,这些高质量内容,可以显著降低Agent在检索任务中的幻觉。 Agent与工具的交互,本质上是一个持续对话场景。
这种“目标错位”是AI安全领域最核心的担忧之一。2.武器的化身:当Agent被恶意利用如果说误解是“无心之失”,那么被恶意利用则是“有心为恶”。 技术加固:投入研发可解释AI,让Agent的决策过程变得透明;建立“中断开关”和“containmentbox”机制,确保人类在任何时候都能接管或终止Agent的行动。 价值对齐研究:大力支持对齐技术的基础研究,通过强化学习从人类反馈、宪法AI等方法,尝试将人类的价值观和偏好更可靠地嵌入AI系统。 行业自律与公众监督:科技公司必须将安全和伦理置于商业利益之上,建立严格的内部审查机制。同时,关于AI发展的讨论必须向公众开放,这不仅是技术议题,更是关乎我们所有人的社会议题。 在将它们推向世界之前,我们必须竭尽全力,确保这些强大的“打工人”不仅是高效的,更是安全、可靠且与我们同心同德的。这场关乎人类命运的对齐竞赛,其重要性,不亚于开发AI本身。
随着生成式AI技术的不断进步,关于其未来发展方向的讨论也愈发激烈。究竟生成式AI的未来是在对话系统(Chat)中展现智慧,还是在自主代理(Agent)中体现能力?这一问题引发了广泛的讨论和探索。 多模态对话系统 2.1 语音交互 对话系统将整合语音识别和生成技术,使用户能够通过语音与AI进行对话,同时AI可以通过语音反馈,提供更加自然的交互体验。 二、自主代理(Agent)的发展方向 1. 自主决策和执行能力 1.1 环境感知 自主代理通过传感器和数据分析,实时感知周围环境的变化,从而做出适应性决策。 安全性和可靠性 4.1 多重冗余设计 通过引入多重冗余设计,自主代理可以在故障情况下保持基本功能,确保系统的稳定运行。 伦理与政策 随着生成式AI的广泛应用,伦理问题和政策法规将变得越来越重要。如何确保AI的公平性、安全性和隐私保护,将是未来发展的重要课题。 总的来说,生成式AI的未来充满了无限可能。
本文收录于Github:AI-From-Zero项目——一个从零开始系统学习AI的知识库。如果觉得有帮助,欢迎⭐Star支持!如何对OpenClaw龙虾做最小权限设计? 一、最小权限原则:Agent安全的基石最小权限原则(PrincipleofLeastPrivilege)在Agent上下文里的含义是:Agent在任何时刻拥有的权限,不应超过完成当前任务所必需的最小集合 这不只是安全最佳实践,也是工程设计的基本纪律——权限越少,Agent做错事的影响范围越小,无论错误来自PromptInjection、LLM幻觉,还是Skill的bug。 能做什么、不能做什么在Agent时代,最小权限原则不仅是安全要求,更是用户体验设计的核心组成部分。 好的权限设计让用户既感到安全,又不会被繁琐的确认流程困扰。正如安全专家常说的:"安全不是功能,而是基础"。对于OpenClaw这样的强大Agent,最小权限设计就是它的安全基础。
前言:Human-in-the-Loop(HIL)是一种AI系统设计模式,它允许人类在AI Agent的决策过程中介入并提供反馈或决策。 在HIL系统中,AI Agent在执行某些关键操作前会暂停,等待人类的审批或输入,然后再继续执行。 工具调用级安全管控tool_node = ToolNode(tools) # 封装外部APIworkflow.add_conditional_edges("agent", should_continue 技术的不断进步,AI Agent将在更多领域发挥重要作用。 由于文章篇幅有限,关于AI Agent相关技术知识点,我整理成了一个2W字的文档,粉丝朋友自行领取:《想要读懂AI Agent(智能体),看这里就够了》如果本次分享对你有所帮助,记得告诉身边有需要的朋友
此文主要讲解ai项目集成心得体会个人感觉ai项目与正常开发并无太大区别,你可以理解为就多了一些依赖引入,多了些编码的固定格式。主要涉及几大板块区别,一个是模型引入,即你想使用什么LLM作为基座。 第一个模型引入,简单来说就是需要接入我们的大语言模型,作为我们整个agent项目的衔接。 但他常涵盖一套操作,就是我们调用外部的其余api的一个规范化(基于agent的),此处说的其余api其实描述是不大对的但你可以看做类似的这种操作。只是调用api是单次的,一问一答。
让AI帮忙写代码,它每次都要你重新说明代码风格和命名规范。 这些"不可控"的行为,让很多人对 AI 不能完全放手去用,今天,我就来详细聊聊AI Agent Skill 这个让AI变"听话"的工具。 什么是AI Agent Skill? 简单来说,Skill就是AI的能力说明书和工作手册。 它不是复杂的代码,而是结构化的知识文档。 实战案例解析 写作Agent Skill 以我使用的写作Agent为例,核心架构是: 两层判断机制 先判断工作区(公众号/视频/技术文档等) 再判断任务类型(新写作/修改/审校等) 9步写作流程 从理解需求到最终交付的完整流程 对于程序员,可以配置这样的Skill: 技术栈识别 自动判断项目使用的编程语言、框架 根据技术栈选择对应的代码规范 代码质量检查 命名规范:变量名、函数名要符合团队约定 代码风格:缩进、空行、注释要统一 安全检查 总结 AI Agent Skill不是什么复杂的技术概念,它就是一种让AI更听话、更实用的方法。 通过结构化的规则和流程,Skill解决了AI"不可控"的核心问题。
安全监控:通过摄像头和传感器监控家庭安全,实时警报。 健康医疗咨询 在健康医疗领域,AI Agent能够提供初步的诊断建议,辅助医生进行决策,并管理患者数据。 Azure提供了高性能的AI工作负载处理能力,包括深度学习,并提供了增强型AI管理和安全功能。 这些工具和平台为AI Agent的开发提供了强大的支持,使得开发者能够构建出功能丰富、性能卓越的智能体。 数据隐私与安全 随着AI技术的进步,便利性、安全性和隐私之间的界限变得越来越模糊。 AI Agent依赖于数据,必须访问大量关于用户的个人信息,这引发了对多因素认证(MFA)和其他安全协议的隐私和安全问题。 强调持续研究与开发的重要性 AI Agent的发展是一个不断进化的过程,需要持续的研究与开发来解决技术挑战、提高性能、增强安全性和隐私保护。
AI Agent的出现,正在从根本上改变数据工程师的工作方式,甚至重新定义这个职业的边界。 从堆人到提效 提到AI Agent,很多人的第一反应是又一个大模型概念。 海内外市场的不同路径 有意思的是,AI Agent在数据工程领域的落地,海外和国内走的是完全不同的路。 海外市场的特点是生态成熟,分工明确。 数据Agent的阿喀琉斯之踵 如果说AI Agent给数据工程带来了什么新问题,准确率绝对是最大的那个。 在数据领域,准确性就是生命线。 一个数字算错了,决策就可能走偏。 一家做数据Agent的创业公司分享了他们的应对策略:选择容错度高的场景切入,比如数据开发——改错了可以重跑,而不是直接做生产决策;建立反馈循环,让AI记住用户的修正,通过不断迭代提升准确率;把SQL生成转化为参数填充 结语 数据工程遇上AI Agent,不是一场突如其来的革命,而是水到渠成的演进。 那些还在用老办法堆人的团队,也许该停下来想一想:未来的数据工程师,需要具备什么样的新能力?
这就是AI Agent(智能体)带来的未来。 什么是 AI Agent? 与传统AI系统不同,AI Agent具备自主决策能力。你只需要给定一个目标,它就能够独立思考并规划如何达成这个目标,调用各种工具完成任务。 AI Agent如何工作? 专业领域:在医疗领域,AI辅助诊断Agent能自动生成精准诊断报告;在工业领域,AI Agent可用于质量检测和设备维护。 写在最后 随着技术发展,AI Agent将更加智能化和专业化。未来我们可能会看到: 个性化Agent:根据用户习惯定制的个人助理。 专业领域Agent:针对特定行业的专业智能体。 多Agent协作:多个Agent协同工作,形成复杂的智能网络。 AI Agent代表了人工智能从“被动工具”到“主动助手”的重要进化。
应对无边界特权与供应链投毒的智能体运行风险 在企业部署和应用AI Agent(如OpenClaw架构,内部代号“龙虾”)的过程中,传统网络安全边界逐渐消失,企业面临严重的权限失控与资产裸露挑战。 构建基于“云-网-端”协同的智能体防护组件 针对上述AI架构带来的安全新范式,腾讯云基于自身防护经验,构建了覆盖宿主层、运行层、应用层与网络层的AI智能体安全治理框架: AI Agent安全中心(管控中枢 AI Agent安全网关(访问与流控): 提供OpenClaw身份验证与凭据管理,解决“谁可用”及“访问权限”问题。通过Token限流保障业务系统的高并发稳定性。 : 实现100%零信任三层防御闭环: 事前(Agent准入): 执行合规检测与软件管控,确保仅安全Agent进入环境。 原生防御」为核心的实战型闭环: 安装渗透防线: 直接拦截未经审批的“龙虾”(AI Agent)私自安装。
海外版网址在此:https://skywork.ai/ 国内版网址:https://www.tiangong.cn/ 他们的首页是这样的。 我们可以直接让AI,来帮我们处理表格数据。 也可以直接,说出你的要求,让他基于全网的信息给你做筛选,最后屯到表格里。 它甚至会单独帮你开几个sheet,给你准备好,视觉的可视化。 价格上,海外版价格在大部分的同类型Agent产品中,价格算中档。 但是坦诚的讲,相比于大家日常用的非Agent的AI产品,会贵一些,毕竟整体Agent算力消耗在这。 MCP地址:https://mcp.so/server/skywork-super-agents/Skywork-ai 就,我还是想说句佩服的。 你能从每一个细节中感受到,这还是一群真心想让AI好用的人,在用工程师的方式,尝试解决我们每天办公里的小痛点。 昨天,Google已经手起刀落,开始在重构自己的搜索引擎。
如果你还以为安全漏洞只是“被人偷看了一点数据”,那么这场发生在我们眼皮底下的 Agent “裸奔”狂潮,绝对会彻底颠覆你对 AI 时代系统崩溃的认知。 但真实情况是,Agent 的部署量已经呈现爆炸式增长,而配套的安全治理能力却还在穿开裆裤。这种野蛮生长的背后,是对技术的极度无知。 安全不再是“阻止未经授权的访问”,而是要深入到 Agent 的逻辑内部。你需要界定:这个 Agent 有没有权利在这个时间点、使用这个 Token、执行这段 Python 代码? 【笔者观点:不要修补城墙,要去“驯化野兽”】这个惨痛的教训告诉我们:面对 AI,传统的“筑墙防守”思维已经失效。优秀的 AI 开发者和安全专家,最高阶的能力将是作为“数字野兽的驯化师”。 当满大街都是“会写 Prompt”和“会调 API”的初级开发者时,这场 22 万实例的公网灾难,恰恰为未来的技术人才指明了最值钱的方向:“原生安全视角”的 Agent 架构师(Zero-Trust AI
AI Agent 应用层的端到端安全保障。 二、 产品应用场景 目标受众:部署并运行 OpenClaw (AI Agent) 的开发者与企业运维人员。 使用情境:在 AI Agent 接入第三方组件、对外暴露服务或长期运行过程中,解决以下核心安全痛点: Skill“投毒”风险:防范从第三方市场安装的 Skill 携带恶意指令或后门,直接危及系统安全。 案例 4:对外服务,加固守护(公网暴露场景) 背景:“小龙虾”作为 AI Agent 需对外提供服务,直接面临公网的复杂攻击环境。 成效:构建了从网络层到 Agent 业务层的互补型安全防线,形成闭环的安全端到端加固。
AI 智能体(AI Agent)的应用非常广泛,几乎涵盖了我们生活的方方面面。它们能够自主地感知环境、做出决策并执行行动,从而完成各种复杂的任务。以下是一些 AI 智能体的典型应用场景。 交通运输:自动驾驶汽车: 通过感知周围环境并做出决策,实现车辆的自动驾驶,提高交通安全性和效率。交通流量优化: 分析交通数据,优化交通信号灯的配时,缓解交通拥堵。 安防监控: 监控安全摄像头,识别异常行为,提高安全性。环境监测: 监测空气质量、水质等环境指标,提供环境预警。 百度的文心一言 APP 上的智能体: 可以进行“视频对话”、背单词、纠正口语,还可以通过 AI 智能体模拟面试、与 AI 古人对话等,体现了 AI 智能体在内容创作和人机交互方面的应用。 总而言之,AI 智能体正在深刻地改变着我们的生活和工作方式。随着技术的不断发展,AI 智能体的应用领域还将不断拓展,为我们带来更多的便利和创新。